Новости Статьи Российское ПО VMware Veeam StarWind vStack Microsoft Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6470 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Уязвимость CVE-2022-40982 Gather Data Sampling (GDS/Downfall) для хостов VMware ESXi 8 - проверьте и обновитесь


На днях на сайте virten.net появилась информация об уязвимости CVE-2022-40982 Gather Data Sampling (GDS/Downfall) хостов VMware ESXi 8 инфраструктуры vSphere, которая может быть полезна для администраторов.

8 августа этого года компания Intel рассказала о проблеме "transient execution side-channel vulnerability" (уязвимость побочного канала при переходном выполнении), которая затрагивает определенные процессоры. В особых микроархитектурных состояниях CPU возможно раскрытие информации после transient-исполнения команд в некоторых векторных модулях исполнения, что может привести к ситуации, когда аутентифицированный пользователь может получить неавторизованный доступ к информации через механику локального доступа. Подробнее об уязвимости CVE-2022-40982 можно почитать тут.

Также вам могут быть полезны следующие ресурсы:

Чтобы понять, имеет ли ваш процессор данную дыру в безопасности, вам нужно получить о нем следующую информацию: CPU Family, Model и Stepping. Сделать это можно через PowerShell с помощью скрипта Get-CPUid, который вы можете скачать здесь.

Если вы посмотрели на вывод колонок и узнали там свой процессор из таблицы, а в колонке на сайте Intel увидели значение "MCU", то вам нужно накатывать обновление микрокода вашего сервера для защиты от угроз данного типа. Для получения обновления вам нужно связаться с вендором вашего серверного оборудования (например, ссылки для HP и Dell приведены выше).


Таги: VMware, Intel, Security, CPU, Hardware, ESXi

Новый документ "VMware vSphere 8 Performance Is in the “Goldilocks Zone” for AI/ML Training and Inference Workloads"


Недавно компания VMware опубликовала интересный документ "VMware vSphere 8 Performance Is in the “Goldilocks Zone” for AI/ML Training and Inference Workloads".

Там приведены результаты тестирования производительности рабочих нагрузок обучения AI/ML на платформе виртуализации VMware vSphere с использованием нескольких графических процессоров NVIDIA A100-80GB с поддержкой технологии NVIDIA NVLink. Результаты попадают в так называемую "зону Голдилокс", что означает область хорошей производительности инфраструктуры, но с преимуществами виртуализации.

Результаты показывают, что время обучения для нескольких тестов MLPerf v3.0 Training1 увеличивается всего от 6% до 8% относительно времени тех же рабочих нагрузок на аналогичной физической системе.

Кроме того, в документе показаны результаты теста MLPerf Inference v3.0 для платформы vSphere с графическими процессорами NVIDIA H100 и A100 Tensor Core. Тесты показывают, что при использовании NVIDIA vGPU в vSphere производительность рабочей нагрузки, измеренная в запросах в секунду (QPS), составляет от 94% до 105% производительности на физической системе.

vSphere 8 и высокопроизводительная виртуализация с графическими процессорами NVIDIA и NVLink.

Партнерство между VMware и NVIDIA позволяет внедрить виртуализированные графические процессоры в vSphere благодаря программному слою NVIDIA AI Enterprise. Это дает возможность не только достигать наименьшего времени обработки для виртуализированных рабочих нагрузок машинного обучения и искусственного интеллекта, но и использовать многие преимущества vSphere, такие как клонирование, vMotion, распределенное планирование ресурсов, а также приостановка и возобновление работы виртуальных машин.

VMware, Dell и NVIDIA достигли производительности, близкой или превышающей аналогичную конфигурацию на физическом оборудовании со следующими настройками:

  • Dell PowerEdge XE8545 с 4-мя виртуализированными графическими процессорами NVIDIA SXM A100-80GB
  • Dell PowerEdge R750xa с 2-мя виртуализированными графическими процессорами NVIDIA H100-PCIE-80GB

Для вывода в обеих конфигурациях требовалось всего 16 из 128 логических ядер ЦП. Оставшиеся 112 логических ядер ЦП в дата-центре могут быть использованы для других задач. Для достижения наилучшей производительности виртуальных машин во время обучения требовалось 88 логических ядер CPU из 128. Оставшиеся 40 логических ядер в дата-центре могут быть использованы для других активностей.

Производительность обучения AI/ML в vSphere 8 с NVIDIA vGPU

На картинке ниже показано сравнительное время обучения на основе тестов MLPerf v3.0 Training, с использованием vSphere 8.0.1 с NVIDIA vGPU 4x HA100-80c против конфигурации на физическом оборудовании с 4x A100-80GB GPU. Базовое значение для физического оборудования установлено как 1.00, и результат виртуализации представлен в виде относительного процента от базового значения. vSphere с NVIDIA vGPUs показывает производительность близкую к производительности на физическом оборудовании, где накладные расходы на виртуализацию составляют 6-8% при обучении с использованием BERT и RNN-T.

Таблица ниже показывает время обучения в минутах для тестов MLPerf v3.0 Training:

Результаты на физическом оборудовании были получены Dell и опубликованы в разделе закрытых тестов MLPerf v3.0 Training с ID 3.0-2050.2.

Основные моменты из документа:

  • VMware vSphere с NVIDIA vGPU и технологией AI работает в "зоне Голдилокс" — это область производительности для хорошей виртуализации рабочих нагрузок AI/ML.
  • vSphere с NVIDIA AI Enterprise, используя NVIDIA vGPUs и программное обеспечение NVIDIA AI, показывает от 106% до 108% от главной метрики физического оборудования (100%), измеренной как время обучения для тестов MLPerf v3.0 Training.
  • vSphere достигла пиковой производительности, используя всего 88 логических ядер CPU из 128 доступных ядер, оставив тем самым 40 логических ядер для других задач в дата-центре.
  • VMware использовала NVIDIA NVLinks и гибкие группы устройств, чтобы использовать ту же аппаратную конфигурацию для обучения ML и вывода ML.
  • vSphere с NVIDIA AI Enterprise, используя NVIDIA vGPU и программное обеспечение NVIDIA AI, показывает от 94% до 105% производительности физического оборудования, измеренной как количество обслуживаемых запросов в секунду для тестов MLPerf Inference v3.0.
  • vSphere достигла максимальной производительности вывода, используя всего 16 логических ядер CPU из 128 доступных, оставив тем самым 112 логических ядер CPU для других задач в дата-центре.
  • vSphere сочетает в себе мощь NVIDIA vGPU и программное обеспечение NVIDIA AI с преимуществами управления дата-центром виртуализации.

Более подробно о тестировании и его результатах вы можете узнать из документа.


Таги: VMware, NVIDIA, Hardware, AI/ML, Performance, Whitepaper

Как использовать USB-флешки как датасторы на платформе VMware vSphere 8


На сайте проекта virten.net появилось отличное руководство о том, как правильно настроить USB-накопитель (обычную флэшку), подключенный к хосту VMware ESXi 8.0 в качестве датастора, откуда можно запускать виртуальные машины. Для производственной среды этого делать, само собой, не рекомендуется, а вот для тестирования различных возможностей хоста vSphere данная инструкция может оказаться очень полезной.

Итак:

Рекомендации по выбору USB-накопителя

Касательно форм-фактора или типа USB-накопителей нет никаких ограничений. Вы можете использовать маленькие флешки USB, большие жесткие диски USB 3.5" с высокой емкостью или внешние твердотельные накопители на базе USB. Из-за проблем с производительностью и надежностью, не рекомендуется использовать дешевые USB-флешки для хранилищ.

Предварительные условия

Некоторые команды требуют доступа по SSH к хосту ESXi, который можно включить из vSphere Client:

vSphere Client > ESXi Host > Configure > System > Services > SSH > Start

Это же можно сделать из VMware ESXi Host Client:

ESXi Host Client > Host > Manage >  Services > TSM-SSH > Start

После этого вы можете зайти на хост ESXi по SSH с помощью любого клиента, например, PuTTY.

Шаг 1 - отключаем USB Passthrough

Дефолтное поведение хоста ESXi при присоединении USB-накопителя к хосту - дать возможность его проброса в виртуальную машину через механизм USB Passthrough. Поэтому нам нужно отключить этот механизм.

Есть 3 способа это сделать:

  • На базе устройства с помощью команды esxcli passthrough
  • На базе модели с использованием расширенных настроек USB quirks
  • Полностью отключить его для всех устройств, отключив сервис usbarbitrator

1 - Отключаем USB Passthrough на базе устройства

Этот способ основан на параметрах USB Bus и Vendor ID. Эта настройка сохраняется при перезагрузке, но учтите, что она может перестать работать в условиях, когда изменяются идентификаторы Bus ID или Device ID (например, вы воткнете флэшку в другой порт, либо будет присоединено другое устройство на время отсутствия флэшки в порту).

Итак, втыкаем USB-накопитель в хост ESXi и соединяемся с ним по SSH как root. Выводим список USB-устройств командой:

esxcli hardware usb passthrough device list

Для следующей команды вам потребуется записать параметры четырех выделенных колонок в формате Bus#:Dev#:vendorId:productId (например, 1:4:1058:1140).

Отключаем проброс для устройства:

esxcli hardware usb passthrough device disable -d 1:4:1058:1140

После этого перезагружать хост ESXi не требуется.

2 - Отключаем USB Passthrough, используя USB Quirks

Второй вариант отключает USB Passthrough для конкретной модели (сочетание идентификатора производителя и идентификатора продукта) с использованием расширенных настроек USB Quirks.

Вставьте USB-накопитель в ваш ESXi, подключитесь к хосту ESXi с использованием SSH и войдите под root. Далее просмотрите доступные USB-устройства. Первое число - это идентификатор производителя, второе число - идентификатор продукта:

lusb

Для установки USB Quirks нужно указать ID в следующем формате (см. скриншот выше): 0xDeviceID:0xVendorID  (например, 0x1058:0x1140).

Отключите USB passthrough, используя следующую команду:

esxcli system settings advanced set -o /USB/quirks -s 0x1058:0x1140:0:0xffff:UQ_MSC_NO_UNCLAIM

Здесь уже нужно перезагрузить хост ESXi для применения изменений.

3 - Отключаем USB Arbitrator

Перед началом процедуры не втыкаем флэшку в сервер.

Заходим в клиент vSphere Client, идем в ESX > Configure > System > Advanced System Settings и нажимаем Edit... Далее найдем параметр USB.arbitratorAutoStartDisabled и установим его в значение 1:

После этого перезагружаем хост ESXi и уже после этого втыкаем флэшку в сервер.

То же самое можно сделать с помощью CLI-команды через SSH (после нее можно уже втыкать флэшку):

/etc/init.d/usbarbitrator stop

Также можно отключить USB Arbitrator следующей командой, которая будет применена после перезагрузки хоста:

# chkconfig usbarbitrator off

Шаг 2 - создаем VMFS Datastore на флэшке

После того, как вы отключили проброс USB, можно создавать датастор через vSphere Client, кликнув правой кнопкой на хосте ESXi и выбрав Actions > Storage > New Datastore... (в ESXi Host Client это делается в разделе Storage > New Datastore).

Если ваше устройство не отображается в мастере New Datastore, нужно сделать ресканирование хранилищ (опция Rescan Storage по правому клику) и убедиться, что устройство присутствует в списке.

Если и это не помогло, то можно попробовать создать датастор с помощью командной строки. Находим путь к устройству (Device Path в формате mpx.vmhba##). Для этого запускаем команду:

esxcli storage core device list |grep '^mpx' -A3

В выводе команды вы сможете идентифицировать устройство по его размеру:

Если у вас несколько устройств одного размера, то после подключения нужного вам устройства загляните в лог /var/log/vmkernel.log и посмотрите там наличие вот такой записи:

vmkernel: Successfully registered device "mpx.vmhba34:C0:T0:L0" from plugin "NMP" of type 0

Это и есть ваша флэшка. Теперь создаем переменную с этим устройством:

DISK="/vmfs/devices/disks/mpx.vmhba34:C0:T0:L0"

После этого создаем метку для данного устройства:

partedUtil mklabel ${DISK} gpt

Теперь с помощью утилиты partedUtil создадим раздел с идентификатором GUID=AA31E02A400F11DB9590000C2911D1B8:

partedUtil "setptbl" "${DISK}" "gpt" "1 2048 $(eval expr $(partedUtil getptbl ${DISK} | tail -1 | awk '{print $1 " \\* " $2 " \\* " $3}') - 1) AA31E02A400F11DB9590000C2911D1B8 0"

И отформатируем раздел в формат VMFS:

vmkfstools -C vmfs6 -S usbdrive ${DISK}:1

После этого ваш том, созданный на флэшке, появится в списке датасторов хоста.

Для бесплатного резервного копирования виртуальных машин можно использовать скрипт ghettoVCB.

Если вы заметите, что скорость копирования на/с датастора с помощью команд cp, mv или scp очень медленная, то вы можете использовать механизм Storage vMotion или утилиту vmkfstool для копирования данных.

Например, вот так можно склонировать VMDK-диск:

vmkfstools -i <src>.vmdk <dst>.vmdk

Известные проблемы

Когда вы пытаетесь определить диск, дважды проверьте, что вы не перепутали свои накопители. Имя, отображаемое в пользовательском интерфейсе, не меняется, когда меняется идентификатор. Вот пример, где выделенный диск был перенесен на виртуальный адаптер mpx.vmhba33 как новое устройство. Отображаемое имя при этом остается старым - mpx.vmhba32.

Существующие датасторы не монтируются автоматически! То есть, если на вашей флэшке уже есть тома VMFS, то они не будут видны при ее подключении. В этом случае датастор будет offline, а в логе vmkernel.log вы увидите вот такое сообщение:

cpu0:65593)LVM: 11136: Device mpx.vmhba34:C0:T0:L0:1 detected to be a snapshot:

То есть датастор определяется как снапшот. Список снапшотов вы можете вывести командой:

# esxcli storage vmfs snapshot list
583b1a72-ade01532-55f6-f44d30649051
Volume Name: usbflash
VMFS UUID: 583b1a72-ade01532-55f6-f44d30649051
Can mount: true
Reason for un-mountability:
Can resignature: true
Reason for non-resignaturability:
Unresolved Extent Count: 1

В этом случае вы можете смонтировать датастор следующей командой, используя VMFS UUID:

# esxcli storage vmfs snapshot mount -u 583b1a72-ade01532-55f6-f44d30649051

Таги: VMware, USB, VMFS, Storage, Hardware, vSphere, ESXi

Вышла новая версия VMware ESXi Arm Edition 1.13


Совсем недавно мы писали об инициативах компании VMware в сфере архитектуры процессоров ARM, а вот на днях компания объявила о релизе новой версии флагманской платформы - VMware ESXi Arm Edition 1.13. Напомним, что это решение представляет собой гипервизор для архитектуры ARM на базе кода ESXi. В будущем он найдет свое применение в таких решениях, как Project Monterey. О прошлой версии ESXi для ARM 1.12 мы писали в марте этого года.

Давайте посмотрим на новые возможности ESXi Arm Edition 1.13:

  • Теперь поддерживается обновление с более ранних релизов ESXi-Arm 1.x Fling с использованием как ESXi-Arm ISO, так и автономного пакета.
  • Добавлена поддержка контроллеров AHCI SATA, которые не поддерживают 64-битное адресацию на системах с памятью, расположенной выше 4GB
  • Исправлена ошибка с выпадением в розовый экран смерти (PSOD) на системах GIGABYTE Ampere Altra и Altra Max с SATA HBA на базе ASM1164 при наличии одного или нескольких SATA дисков
  • Исправлено возможное повреждение данных для виртуального устройства NVMe
  • Таблицы виртуального UEFI ACPI теперь показывают только настроенные последовательные порты. Для первого найденного создается таблица ACPI SPCR.
  • Поддержка реального времени UEFI (RTC) теперь включена на системах на базе Rockchip.
  • Исправлено возможное зависание при выключении на системах на базе Rockchip при использовании встроенных сетевых адаптеров.
  • Апгрейды с использованием образов профилей автономного пакета (zip) теперь возможны на всех системах.
  • Исправлены сбои подключения vVols.
  • Добавлены функции высокой доступности для vCenter Server 8.0+ (подробнее об этом тут).

Скачать последнюю версию VMware ESXi Arm Edition 1.13 можно по этой ссылке.


Таги: VMware, Labs, ESXi, ARM, Update, Hardware

Продукты VMware и устройства на базе архитектуры ARM


Как многие знают, сейчас процессоры на базе архитектуры ARM постепенно входят в повседневную жизнь, как для администраторов корпоративных инфраструктур в части специфического оборудования, так и для обычных пользователей благодаря компьютерам на базе архитектуры Apple Silicon с процессорами M1/M2 (в основном, это ноутбуки MacBook).Сегодня мы рассмотрим 3 основных инициативы компании VMware в этой сфере...


Таги: VMware, ARM, Hardware, ESXi, Apple, Microsoft, Macbook

Как VMware Horizon Client for Mac поддерживает макбуки с процессорами ARM


В 2021 году было объявлено выпуске первого ноутбука MacBook Pro с процессором, разработанным компанией Apple (M1), что дало старт переносу CPU устройств Mac с платформы Intel x86 на архитектуру ARM. Apple утверждает, что MacBook на базе ARM оснащен самым быстрым ядром CPU и самой мощной интегрированной графикой, что приводит к огромным приростам мощности и производительности. В следующем году, на WWDC, Apple анонсировала еще один процессор ARM - M2.

В то время как Apple внедряла свои чипы ARM, она также представила проект Rosetta для существующих приложений. Rosetta - это динамический бинарный транслятор, разработанный Apple для macOS. Он позволяет пользователям постепенно переходить на новое железо, автоматически транслируя программное обеспечение архитектуры x86. В 2020 году был анонсирован движок Rosetta 2, который позволяет приложениям на базе Intel работать на Mac с чипами M1/M2.

Для конечных пользователей, работающих с виртуальными рабочими столами и приложениями Horizon на Mac, важно гарантировать, что клиент полностью совместим с операционной системой. Ранее клиент Horizon для Mac использовал эмуляционный режим Rosetta для поддержки виртуальных рабочих столов на Macbook с процессорами ARM. Однако Horizon 2212, выпущенный в конце 2022 года, внедрил нативную поддержку клиента для Mac на базе ARM.

Кроме этого, с выпуском последней версии клиента Horizon 2303, ключевые функции Horizon теперь нативно поддерживают ARM, включая пакет оптимизации Microsoft Teams и кодек VMware Blast, который обеспечивает повышенную производительность. В тестах VMware на Blast Codec использование процессора ARM в нативном режиме для Horizon Client примерно на 15% ниже, чем в режиме эмуляции Rosetta.

Клиент Horizon имеет универсальный бинарный файл для macOS, который может работать нативно на Mac на базе Apple Silicon или Intel, поскольку универсальная сборка содержит исполняемый код для обеих архитектур и не требует Rosetta.

Чтобы определить, работает ли ваше приложение Horizon Client нативно на ARM и не использует эмуляцию Rosetta, выполните следующие шаги:

Выберите Horizon Client из приложений в Finder. В меню "Файл" на панели меню выберите "Получить сведения". Если в разделе "Тип" указано "Приложение (универсальное)", это означает, что приложение поддерживает процессоры Apple Silicon и Intel, и автоматически устанавливает нативную версию. Если вы хотите запустить Horizon Client Apple Silicon с эмуляцией Rosetta, вы можете отметить опцию "Открыть с использованием Rosetta".


Таги: VMware, Apple, Horizon, Client, macOS, ARM, Hardware

Обновился USB Network Native Driver for ESXi до версии 1.12


На сайте проекта VMware Labs обновился пакет драйверов USB Network Native Driver for ESXi до версии 1.12. Напомним, с помощью данных драйверов пользователи могут подключать различные сетевые устройства к ESXi через USB-порт, например дополнительные сетевые адаптеры хостов, если у них больше не осталось свободных PCI/PCIe-слотов. О прошлой версии этого комплекта драйверов мы рассказывали тут.

Давайте посмотрим, что нового в этой версии:

  • Добавлена поддержка новой версии ESXi 8.0 Update 1
  • Добавлена поддержка нового устройства DLINK RTL8156 (0x2001:0xb301)
  • Исправлена проблема на скорости соединения 2.5GbE для адаптера RTL8156
  • Максимальное число поддерживаемых адаптеров увеличено до 12

Актуальная таблица поддерживаемых сетевых адаптеров на сегодня выглядит так:

Скачать USB Network Native Driver for ESXi 1.12 можно по этой ссылке.


Таги: VMware, USB, Hardware, Driver, Networking, Labs

Сертифицированные узлы Ready Node и архитектура VMware vSAN Express Storage Architecture (ESA)


Как знают многие администраторы, у VMware есть список сертифицированных конфигураций оборудования, подходящих под использование продуктов линейки vSAN (а также различных профилей нагрузки, например, VDI), который называется Ready Node.

Также, как вы помните, с релизом новой версии решения для создания отказоустойчивых кластеров хранилищ vSAN 8 компания VMware выпустила и новую архитектуру Express Storage Architecture (ESA). Это архитектура гиперконвергентной инфраструктуры, которая позволяет достичь максимальных показателей производительности и эффективности на базе высокопроизводительных систем хранения.

За счет использования флэш-памяти TLC на основе технологии NVMe, архитектура ESA имеет множество преимуществ по сравнению со стандартной vSAN Original Storage Architecture (OSA), которая также продолжает поддерживаться для стандартного на текущий момент оборудования (устройства SATA/SAS).

С релизом ESA многие администраторы задались вопросом, на каких серверах можно развертывать сервисы этой архитектуры vSAN. С самого начала в списке Ready Node поддерживалось оборудование Dell, HPe и Lenovo, а недавно добавили и серверы Supermicro.

Основная модификация, которая, как правило, интересует пользователей - это "Storage Device" и "Number of Storage Devices", то есть возможность заменять тип накопителей и их количество. Но это не все - в зависимости от типов узлов вы можете менять CPU и память (только в сторону увеличения ресурсов), а также сетевые карты и их количество.

Полный список доступны изменений приведен в KB 90343, но их суть сводится к таблице, представленной ниже (кликните для увеличения):

В той же статье вы найдете и ответы на самые часто возникающие вопросы об узлах Ready Node для Express Storage Architecture.


Таги: VMware, vSAN, Hardware, ESA

Обновился USB Network Native Driver for ESXi до версии 1.11


На сайте проекта VMware Labs вышло еще одно полезное обновление - комплект драйверов USB Network Native Driver for ESXi версии 1.11. USB-драйвер для ESXi может понадобиться для сетевых адаптеров серверов, подключаемых через USB-порт. Такой адаптер, например, можно использовать, когда вам нужно подключить дополнительные Ethernet-порты к серверу, а у него больше не осталось свободных PCI/PCIe-слотов. О прошлой версии этого комплекта драйверов мы рассказывали тут.

Основным и единственным нововведением данного комплекта стала поддержка гипервизора VMware ESXi 8.0 в составе VMware vSphere 8.0 (пакет SXi800-VMKUSB-NIC-FLING-61054763-component-20826251.zip).

Актуальная таблица поддерживаемых сетевых адаптеров на сегодня выглядит так:

Установка драйвера для vSphere версии 7.0 и выше выполняется командой:

esxcli software component apply -d /path/to/<the component >.zip

Загрузить USB Network Native Driver for ESXi версии 1.11 можно по этой ссылке.


Таги: VMware, Labs, ESXi, Network, Driver, Hardware

Новая версия VMware Horizon Peripherals Intelligence версии 4.0


На сайте проекта VMware Labs вышло обновление средства Horizon Peripherals Intelligence версии 4.0, предназначенного для самодиагностики периферийных устройств пользователями решения VMware Horizon (о прошлой версии этого решения мы писали вот тут). C помощью данного продукта можно проверить работоспособность и поддержку устройств как со стороны конечных пользователей, так и администраторов платформы Horizon.

Напомним, что утилита Horizon Peripherals Intelligence служит для решения следующих задач:

  • Публикация отчета о диагностике устройств по запросу конечных пользователей
  • Обслуживание спектра пользовательских устройств в рамках поддерживаемых со стороны официального списка совместимости device compatibility matrix
  • Возможность получения администратором доступа к метаданным устройств в каждой категории, где он может загружать, изменять и удалять метаданные, таким образом обслуживая матрицу поддерживаемых устройств на машинах пользователей

Посмотрим, что нового появилось в Horizon Peripherals Intelligence 4.0:

  • Переработанное представление диагностического отчета для лучшего отображения устройств и их проблем.
  • Добавлена поддержка Mac-клиента на платформах M1/M2, а также Intel Mac. Кроме того, сделан универсальный установщик Mac-плагинов.
  • Добавлена поддержка следующих устройств в диагностическом отчете на Mac-клиенте: USB-диск, сканер, принтер, камера, а также USB клавиатура и мышь.
  • Добавлены возможности плагина по совместимости с анти-кейлоггерами на Windows и Mac.
  • Текстовый формат диагностического отчета для того, чтобы можно было им поделиться с IT-администраторами для исправления проблем.

СкачатьVMware Horizon Peripherals Intelligence 4.0 можно по этой ссылке.


Таги: VMware, Horizon, Hardware, Troubleshooting, VDI, Update, Labs

Список пока еще несертифицированных серверов для VMware vSphere 8


Как вы знаете, недавно компания VMware сделала публично доступной для всех обновленную версию платформу виртуализации VMware vSphere 8 в рамках релиза General Availability (ранее состоялся выпуск продукта на этапе Initial Availability).

Администраторы, которые давно следят за выпусками платформы vSphere, знают, что при первоначальном выпуске гипервизора в официальном списке совместимости HCL (Hardware Compatibility List) не все серверные системы приводятся как сертифицированные для последнего релиза vSphere. Например, некоторые могут заметить, что многие серверы различных производителей, которые поддерживались в vSphere 7 Update 3, пока отсутствуют в HCL.

На это обратил внимание Florian Grehl, автор сайта virten.net. Причина такого факта проста - при первоначальном выпуске новой версии ESXi не все серверные системы успевают должным образом протестировать и сертифицировать.

Именно такой список и приводит Флориан, он довольно большой, поэтому лучше всего посмотреть его тут. Список официально несертифицированного оборудования становится все короче, поэтому на virten.net публикуются его обновления (последнее доступное - от 14 ноября). В списке пока представлены только серверы от Cisco, DELL, Fujitsu, Hewlett Packard Enterprise, Hitachi, IBM, Lenovo, Inspur, Huawei и Supermicro.

При клике на выбранный сервер откроется его карточка в VMware HCL:

Надо понимать, что тот факт, что система не сертифицирована, не означает, что VMware vSphere / ESXi на ней работать не будет. Просто вендоры самостоятельно занимаются сертификацией, а значит делают это каждый в своем темпе. Поэтому, если ваш сервер есть в списке, то лучше всего спросить о его сертификации у вендора напрямую.


Таги: VMware, vSphere, Hardware, Update, ESXi

Развертывание StarWind SAN & NAS storage appliance на сервере без ОС (bare metal deployment)


Многие администраторы виртуальных инфраструктур VMware vSphere и Microsoft Hyper-V используют лидирующее на рынке решение StarWind Virtual SAN для создания отказо- и катастрофоустойчивых хранилищ под виртуальные машины. Как правило, продукт Virtual SAN устанавливается как виртуальная машина на гипервизорах ESXi и Hyper-V, чтобы использовать серверы как вычислительные узлы и серверы хранения одновременно. Это оптимальное решение для филиалов.

Сегодня мы поговорим еще об одном варианте развертывания этой платформы - StarWind SAN & NAS storage appliance. Данный модуль, построенный на базе ОС Linux, развертывается в одном из двух вариантов:

  • На "голом железе" (bare metal), то есть на сервере без операционной системы. Это позволяет вам превратить сервер в полноценный узел кластера хранилищ (storage provider).
  • На виртуальной машине - в этом случае сервисы хранилищ реализует ВМ на базе ОС Linux.

В обоих случаях StarWind SAN & NAS будет предоставлять гипервизорам сервисы хранения для виртуальных машин по протоколам iSCSI, SMB и NFS.

После развертывания у администратора появятся следующие интерфейсы управления инфраструктурой хранилищ StarWind:

  • Веб-консоль StarWind
  • Локальная текстовая консоль сервера
  • Плагин к vCenter
  • Удаленный интерфейс командной строки CLI для операций в кластере

Итак, для начала вам нужно убедиться, что сервер соответствует системным требованиям для решения StarWind SAN & NAS storage appliance. Если все в порядке, то загрузите ISO-образ продукта по этой ссылке: https://www.starwindsoftware.com/san-and-nas#download.

Установочный диск вы можете подготовить с помощью ПО Etcher или Rufus для Windows, либо командой dd на Linux или macOS. Для сетевой загрузки смонтируйте ISO-образ к серверу с помощью iDRAC, iLo или IPMI.

Далее зайдите в BIOS и включите Legacy boot mode, после чего выберите CD\DVD или удаленный интерфейс загрузки в качестве загрузочного устройства.

Если все прошло успешно, сервер начнет показывать стадии загрузки установщика StarWind SAN & NAS:

Далее появится лицензионное соглашение, которое надо принять:

Затем выбираем единственную опцию "Install StarWind SAN & NAS":

Указываем один из доступных дисков:

Все проверяем и подтверждаем выбор:

После этого начнется установка StarWind SAN & NAS:

По завершении установки нужно перезагрузить сервер:

После этого вы можете управлять сервером StarWind через веб-интерфейс:

В открывшемся First Run Wizard вы сможете настроить все необходимые параметры сервера хранилищ. О настройке StarWind SAN & NAS через веб или текстовый интерфейс, а также через CLI, мы поговорим в следующей статье.

Скачать бесплатную пробную версию StarWind SAN & NAS storage appliance можно по этой ссылке.


Таги: StarWind, Virtual SAN, Storage, Hardware

Вышло обновление VMware vSAN Hardware Compatibility List Checker 3.0


На сайте проекта VMware Labs обновилась полезная утилита vSAN Hardware Compatibility List Checker 3.0, предназначенная для проверки соответствия хостов ESXi требованиям списка совместимости для узлов кластера vSAN. О прошлой версии этой утилиты мы писали вот тут.

Что нового в vSAN HCL Checker 3.0:

  • Новая таблица Summary, где можно увидеть, какие устройства совместимы с vSAN и vSAN ESA в рамках общего отчета
  • Проверка совместимости оборудования для режима vSAN ESA (Express Storage Architecture), начиная с версии ESXi 8.0
  • Поправлен формат отчета
  • Исправления ошибок, в том числе с обнаружением контроллеров

Для vSAN проверяются Storage adapters на хранилищах, а для режима vSAN ESA проверяются также скорость физических сетевых соединений (суммарно 25 Gbps и более) и размер памяти хостов (32 ГБ и более).

vSAN ESA (Express Storage Architecture)

  • Storage adapters
  • Physical NIC link speed
  • Host memory size

Также отметим, что в версии 2.2 появилась поддержка Windows, Linux и MacOS для запуска утилиты.

Для начала работы нужно просто запустить утилиту и в интерактивном режиме ввести имя хоста ESXi и пароль пользователя root:

В качестве результата в папке с утилитой будет сформирован html-файл (этот шаблон можно редактировать в файле reportTemplate.html), в котором будет информация о совместимости контроллеров хранилищ со списком vSAN HCL (шильдики yes и N/A).

Скачать VMware vSAN Hardware Compatibility List Checker 3.0 можно по этой ссылке.


Таги: VMware, vSAN, HCL, Update, Hardware, Labs

Интересный проект от VMware - WebAssembly (Wasm)


На прошедшей конференции Explore 2022 компания VMware представляла большие корпоративные продукты, о которых мы пишем вот тут. Но был показан и еще один небольшой исследовательский проект - WebAssembly (Wasm) - открытый стандарт, определяющий бинарный стандарт исполняемых программ.

Во время демонстрации был показан эксперимент, который ставил своей целью собрать веб-сервер на базе самых дешевых микрокомпьютеров Raspberry Pi Zero W and Pi Zero 2 W. Эти маленькие low-end платы интегрируют в себе чипсеты BCM2835 (ARM 32-Bits / 1GHz) и BCM2710A1 (ARM 64-bits / Quad core 1GHz) и имеют на борту 512MB памяти SRAM. Системы эти очень бюджетные - стоят около $10, они применяются для прототипирования и некоторых прикладных задач.

Сервер построен на базе технологий Server Side Rendering (SSR) и client hydration, а весь стек включает в себя следующие компоненты:

Технология Server-Side Rendering позволяет обработать клиентскую часть JS на стороне сервера и послать HTML-ответ в браузер. После загрузки специальный компонент берет на себя контроль над веб-страницей, чтобы обеспечить с ней интерактивное взаимодействие, которое называется hydration.

Вот что из этого получилось:

Развертывание веб-сервера производится в 4 простых шага:

1. Логинимся по SSH:

ssh pi@PI_ZERO_IP_ADDRESS

2. Скачиваем и распаковываем контент:

wget https://github.com/vmware-samples/webassembly-browser-apps/releases/download/pi-zero-ssr%401.0.0/build.tar.gz
tar xvf build.tar.gz

3. Запускаем веб-сервер:

# Pi Zero (32-bit):
./ssr-handler ./ssr.wasm ./dist
# Pi Zero 2 (64-bit):
./ssr-handler-64 ./ssr.wasm ./dist

4. Заходим на него:

http://PI_ZERO_IP_ADDRESS:8080

По итогам теста генерация страниц получилась достаточно производительной для 64-битной архитектуры:

Более подробно о проекте WebAssembly (Wasm) можно почитать в официальном репозитории на GitHub, а также в блоге VMware.


Таги: VMware, Raspberry PI, Hardware, Performance

Закат технологии Intel Optane - что будет дальше с поддержкой от VMware?


В своем финансовом отчете за второй квартал этого года компания Intel неожиданно объявила о том, что сворачивает (winding down) разработку технологии оперативной памяти Intel Optane. В свете падения квартальной выручки аж на 22% год к году, Intel просто не может поддерживать все перспективные технологии, требующие больших инвестиций в R&D.

Кстати, AMD во втором квартале этого года почти удвоила выручку (сказался еще эффект включения выручки приобретенной компании Xilinx):

Это оказалось, довольно-таки, неожиданной новостью для компании VMware, которая ориентировалась на поддержку этого типа памяти в своих продуктах, например, планируемом к выпуску решении Project Capitola. В данном продукте будет использоваться так называемая Software-Defined Memory, определяемая в облаке (неважно - публичном или онпремизном) на уровне кластеров VMware vSphere под управлением vCenter.

В Project Capitola вся доступная память серверов виртуализации в кластере агрегируется в единый пул памяти архитектуры non-uniform memory architecture (NUMA) и разбивается на ярусы (tiers), в зависимости от характеристик производительности, которые определяются категорией железа (price /performance points), предоставляющей ресурсы RAM. Все это позволяет динамически выделять память виртуальным машинам в рамках политик, созданных для соответствующих ярусов.

На рынке серверной виртуализации уже довольно давно развивается экосистема оперативной памяти различных уровней - стандартная DRAM, технология SCM (Optane и Z-SSD), модули памяти CXL, память PMEM, а также NVMe. Однако в разработке технологий по виртуализации оперативной памяти компания VMware ориентировалась, в первую очередь, именно на Intel Optane.

Память Intel Optane DC persistent memory (DCPMM она же PMEM) не такая быстрая как DRAM и имеет бОльшие задержки, но они все равно измеряются наносекундами. При этом данная память позволяет иметь ее большой объем на сервере, что существенно повышает плотность ВМ на одном хосте. В конце прошлого года мы писали о производительности этого типа памяти.

Теперь пользователи аппаратных устройств на базе Intel Optane продолжат получать стандартную поддержку Intel до окончания периода End-of-life, а также гарантию, действительную в течение 5 лет. Это касается следующих продуктовых линеек:

  • PMem 100 series ("Apache Pass")
  • PMem 200 series ("Barlow Pass")
  • DC P4800X SSD ("Cold Stream")
  • DC P5800X ("Alder Stream")

Также сообщается, что Intel продолжит развивать технологию PMem 300 series ("Crow Pass") для четвертого поколения процессоров Intel Xeon Scalable ("Sapphire Rapids").

VMware планирует продолжать поддержку памяти Intel Optane PMem в платформах vSphere 7.x и vSAN, а также будущих релизах этих продуктов. На данный момент память Optane поддерживается в трех режимах:

  • Обычная оперативная память (Memory mode)
  • App-Direct mode через механизм vPMem

  • Как персистентное хранилище через объекты vPMemDisk

VMware также добавила расширенные механизмы по поддержке vMMR в vSphere 7 Update 3 и добавила различные интеграции с механизмом DRS в следующей версии платформы. О технологии vMMR можно прочитать подробнее тут.

Также VMware поддерживает все предыдущие поколения технологии Intel Optane PMem, о чем можно почитать в KB 67645. Ну и VMware будет поддерживать будущее поколение Optane PMem 300, которое Intel, вроде как, не планирует сворачивать.

Ну а что касается Project Capitola, то VMware не будет поддерживать Intel Optane в этом решении, а переключится на технологии памяти стандарта CXL, который, как ожидается, получит большое распространение в отрасли. Посмотрим еще, что на эту тему еще расскажут на предстоящей конференции VMware Explore 2022.


Таги: VMware, Intel, Memory, PMem, Hardware, Capitola

Вышло VMware Fusion 22H2 Tech Preview - новые возможности платформы виртуализации для macOS


Вчера мы писали об обновленной настольной платформе виртуализации для Windows и Linux - VMware Workstation 22H2 Tech Preview, которая стала доступна для тестирования пользователями за несколько месяцев до релиза. Одновременно с этим VMware выпустила технологическое превью этого продукта и для macOS - VMware Fusion 22H2 Tech Preview.

Давайте посмотрим, что нового появится в платформе виртуализации для Маков:

1. Поддержка гостевых ОС Windows 11 на платформах Intel и Apple Silicon

Помните мы писали о первом превью VMware Fusion на аппаратной платформе Apple Silicon и сложностях, которые были у команд VMware и Apple в ковидные времена? Так вот VMware доработала продукт Fusion, и теперь он работает на процессорах M1, где еще и поддерживается новая ОС Windows 11 в качестве хостовой и гостевой.

Чтобы обеспечить поддержку Windows 11, от платформы виртуализации требуется поддержка механизма Trusted Platform Module. В этом релизе для работы Virtual TPM module (vTPM) были добавлены некоторые функции. В частности, vTPM имеет реализацию механизма Fast Encryption, который предполагает шифрование только критических частей виртуальных машин и их локальных хранилищ, что намного ускоряет производительность ВМ, практически не уменьшая уровень безопасности.

Устройство vTPM может быть добавлено к любой виртуальной машине, но у нее должно быть включено Full или Fast шифрование. Делается это в разделе VM Settings > Encryption, здесь мы видим возможность выбора механики шифрования:

Второй момент - это автогенерация паролей для пользователя и использование локального Mac Keychain для хранения ключей шифрования, что освобождает пользователя от необходимости вводить пароль при каждой загрузке ВМ.

Также в этой категории было сделано еще 2 улучшения:

  • 2D-графические драйверы для Windows on ARM - теперь, чтобы Windows 11 смотрелась в виртуальной машине хорошо, VMware добавила ранние версии драйверов WDDM, которые позволяют настроить параметры отображения для 4К-окружений и более высоких разрешений.
  • Драйверы vmxnet3 для Windows on ARM - теперь VMware Tools ISO on ARM содержат в себе не только графические драйверы, но и реализацию улучшенных сетевых драйверов .

2. Улучшенная поддержка ВМ Linux на платформе Apple Silicon

VMware работает с комьюнити разных операционных систем и open-source проектов, таких как Mesa и open-vm-tools, чтобы обеспечить максимальную поддержку Linux на аппаратной платформе Apple Silicon. Постоянно выпускаются патчи для ядра, а также улучшения графического драйвера Mesa SVGA, чтобы надежно работало аппаратное 3D-ускорение на базе фреймворков OpenGL 4.3 + GLES 3.1 для виртуальных машин Linux с Mesa 22.1.1 и более поздних версий (для этого нужна версия ядра 5.19+).

Open-source драйверы устройств vmwgfx дают качественный пользовательский опыт пользователю и возможности корректного отображения различных разрешений в гостевой ОС.

Тут надо отметить также функцию Auto-Fit Guest Display, которая в составе Open-VM-Tools v12.0.5 позволяет выравнивать разрешение гостевой ОС, которое меняется, когда пользователь изменяет размер окна консоли. Это работает по аналогии с Debian Bookworm/Testing или Sid и Fedora 37/Rawhide. Также разрешение может быть жестко задано в меню View > Resize Virtual Machine.

3. Прочие улучшения

  • Для платформ Intel и Apple Silicon используется один бинарник .dmg, который организации могут использовать для массового развертывания платформы виртуализации.
  • Исправления багов Kernel 5.15+, которые идут постоянно в тесной работе с сообществом, позволяют устранять ошибки, проявляющиеся при загрузке. Уже сейчас система Fusion работает в дистрибутивах Debian, Fedora и Kali, и поддержка новых платформ будет постоянно расширяться.

4. Ограничения релиза

Надо понимать, что VMware сделала еще не все нужные пользователям вещи, а именно:

  • Fusion пока не будет поддерживать работу ВМ между разными архитектурами (например, ВМ x86_64 на маках M1). 
  • Виртуальные машины macOS пока не поддерживаются, но VMware работает над этим.
  • Дистрибутивы Ubuntu 20.04.4 и 22.04 для arm64 пока не загружаются - VMware также работает над устранением этой проблемы.

Скачать VMware Fusion Tech Preview 22H2 можно по этой ссылке. Руководство по тестированию этого технологического превью находится тут, а основное комьюнити с форумом и прочими ресурсами находится на этой странице.


Таги: VMware, Fusion, Update, Apple, Silicon, Hardware, M1, VMachines, Windows, Linux

Новая версия VMware ESXi ARM Edition 1.10 - что там нового?


Компания VMware обновила свой гипервизор для архитектуры ARM на сайте проекта Labs - ESXi ARM Edition 1.10. В будущем этот гипервизор найдет свое применение в таких платформах, как Project Monterey. О прошлой версии ESXi для ARM 1.9 мы писали в апреле этого года.

Давайте посмотрим, что нового в ESXi ARM Edition 1.10:

  • Теперь поддерживается апгрейд с прошлых версий ESXi-Arm 1.x
  • Поддержка Arm DEN0115 (доступ к конфигурации PCIe через интерфейс firmware, протестировано на Raspberry Pi)
  • Поддержка L3 cache info для Ampere eMAG
  • Небольшие улучшения для non-cache coherent DMA
  • Статистики для Raspberry Pi NIC (genet)
  • GOS: возможность использования VNXNET3 и PVSCSI как драйверов по умолчанию в freebsd12
  • Поддержка чипов RK3566 SBC (например, Quartz64) - как PCIe, так и EQOS onboard NIC
  • Исправлены ошибки для драйвера Intel igbn NIC (повышена стабильность работы)
  • Возвращается нулевой код ошибки для unknown sys_reg(3, 0, 0, x, y) для виртуальных машин
  • Данные телеметрии - собирается статистика о системе, на которой запущен гипервизор

Вот какие данные собираются в рамках телеметрии в целях улучшения продукта:

  • CPU info: число ядер, NUMA, производитель и т.п.
  • Firmware info: вендор и версия
  • Platform info: вендор, продукт, UUID, список устройств
  • ESXi-Arm info: версия, уровень патчей, билд продукта
  • Скрипт /bin/telemetry выполняется при каждой загрузке и в 00:00 каждую субботу

Скачать VMware ESXi ARM Edition 1.10 можно по этой ссылке.


Таги: VMware, ESXi, ARM, Update, Hardware, Labs

VMware vSphere 7 с NVIDIA AI Enterprise: time-sliced vGPU или MIG vGPU? Выбираем нужный профиль


Многие администраторы виртуальных инфраструктур используют технологию NVIDIA vGPU, чтобы разделить физический GPU-модуль между виртуальными машинами (например, для задач машинного обучения), при этом используется профиль time-sliced vGPU (он же просто vGPU - разделение по времени использования) или MIG-vGPU (он же Multi-Instance vGPU, мы писали об этом тут). Эти два режима позволяют выбрать наиболее оптимальный профиль, исходя из особенностей инфраструктуры и получить наибольшие выгоды от технологии vGPU.

Недавно компания VMware выпустила документ "VMware vSphere 7 with NVIDIA AI Enterprise Time-sliced vGPU vs MIG vGPU: Choosing the Right vGPU Profile for Your Workload", в котором рассматриаются варианты использования обоих профилей и приводятся результаты сравнения производительности виртуальных ПК на базе этих профилей.

Итак, давайте рассмотрим первый вариант - сравнение vGPU и MIG vGPU при увеличении числа виртуальных машин на GPU, нагруженных задачами машинного обучения.

В этом эксперименте была запущена нагрузка Mask R-CNN с параметром batch size = 2 (training and inference), в рамках которой увеличивали число ВМ от 1 до 7, и которые разделяли A100 GPU в рамках профилей vGPU и MIG vGPU. Эта ML-нагрузка была легковесной, при этом использовались различные настройки профилей в рамках каждого тестового сценария, чтобы максимально использовать время и память модуля GPU. Результаты оказались следующими:

Как мы видим, MIG vGPU показывает лучшую производительность при росте числа ВМ, разделяющих один GPU. Из-за использования параметра batch size = 2 для Mask R-CNN, задача тренировки в каждой ВМ использует меньше вычислительных ресурсов (используется меньше ядер CUDA) и меньше памяти GPU (менее 5 ГБ, в сравнении с 40 ГБ, который имеет каждый GPU). Несмотря на то, что vGPU показывает результаты похуже, чем MIG vGPU, первый позволяет масштабировать нагрузки до 10 виртуальных машин на GPU, а MIG vGPU поддерживает на данный момент только 7.

Второй вариант теста - vGPU и MIG vGPU при масштабировании нагрузок Machine Learning.

В этом варианте исследовалась производительность ML-нагрузок при увеличении их интенсивности. Был проведен эксперимент, где также запускалась задача Mask R-CNN, которую модифицировали таким образом, чтобы она имела 3 разных степени нагрузки: lightweight, moderate и heavy. Время исполнения задачи тренировки приведено на рисунке ниже:

Когда рабочая нагрузка в каждой ВМ использует меньше процессора и памяти, время тренировки и пропускная способность MIG vGPU лучше, чем vGPU. Разница в производительности между vGPU и MIG vGPU максимальна именно для легковесной нагрузки. Для moderate-нагрузки MIG vGPU также показывает себя лучше (но немного), а вот для тяжелой - vGPU уже работает производительнее. То есть, в данном случае выбор между профилями может быть обусловлен степенью нагрузки в ваших ВМ.

Третий тест - vGPU и MIG vGPU для рабочих нагрузок с высокой интенсивность ввода-вывода (например, Network Function with Encryption).

В этом эксперименте использовалось шифрование Internet Protocol Security (IPSec), которое дает как нагрузку на процессор, так и на подсистему ввода-вывода. Тут также используется CUDA для копирования данных между CPU и GPU для освобождения ресурсов процессора. В данном тесте IPSec использовал алгоритмы HMAC-SHA1 и AES-128 в режиме CBC. Алгоритм OpenSSL AES-128 CBC был переписан в рамках тестирования в части работы CUDA. В этом сценарии vGPU отработал лучше, чем MIG vGPU:

Надо сказать, что нагрузка эта тяжелая и использует много пропускной способности памяти GPU. Для MIG vGPU эта полоса разделяется между ВМ, а вот для vGPU весь ресурс распределяется между ВМ. Это и объясняет различия в производительности для данного сценария.

Основные выводы, которые можно сделать по результатам тестирования:

  • Для легковесных задач машинного обучения режим MIG vGPU даст бОльшую производительность, чем vGPU, что сэкономит вам деньги на инфраструктуру AI/ML.
  • Для тяжелых задач, где используются большие модели и объем входных данных (а значит и меньше ВМ работают с одним GPU), разница между профилями почти незаметна.
  • Для тяжелых задач, вовлекающих не только вычислительные ресурсы и память, но и подсистему ввода-вывода, режим vGPU имеет преимущество перед MIG vGPU, что особенно заметно для небольшого числа ВМ.

В любом случае, если вы строите большую виртуальную инфраструктуру, работающую с задачами машинного обучения и тяжелыми нагрузками, нужно предварительно провести тестирование обоих профилей - MIG vGPU и vGPU, чтобы определить оптимальный для себя режим и сократить затраты на оборудование и ПО. Подробнее вы можете прочитать в документе "VMware vSphere 7 with NVIDIA AI Enterprise Time-sliced vGPU vs MIG vGPU: Choosing the Right vGPU Profile for Your Workload".


Таги: VMware, NVIDIA, ML, vGPU, Performance, Hardware

На VMware Labs обновился USB Network Native Driver for ESXi до версии 1.10


На сайте проекта VMware Labs вышло обновление USB Network Native Driver for ESXi 1.10. Напомним, что это средство представляет собой нативный USB-драйвер для ESXi, который необходим для сетевых адаптеров серверов, подключаемых через USB-порт. Такой адаптер, например, можно использовать, когда вам нужно подключить дополнительные Ethernet-порты к серверу, а у него больше не осталось свободных PCI/PCIe-слотов. О прошлой версии этих драйверов мы писали вот тут.

Давайте посмотрим, что нового в версии пакета 1.10:

  • Добавлена поддержка VMware ESXi 7.0 Update 3c и 3d
  • Исправлена проблема с выпадением ESXi в BSOD при использовании драйвера с последними версиями ESXi

Драйверы версии 1.10 подходят только для ESXi 7.0 Update 3c и Update 3d, вот их дистрибутив:

ESXi703-VMKUSB-NIC-FLING-55634242-component-19849370.zip

Таблица поддерживаемых устройств теперь выглядит так:

Для других версий ESXi нужно использовать одну из предыдущих версий драйвера. Вот, например, обновилась также и версия 1.9, куда были добавлены следующие возможности:

  • Добавлена поддержка ESXi 7.0 Update 3, 3a и 3b.
  • Добавлена поддержка идентификаторов VID: 0x0b05/PID: 0x1976 и VID: 0x1A56/PID: 0x3100.
  • Исправлена проблема в механизме управления питанием в xHCI.
  • Сканирование шины USB (usbBusFullScanOnBootEnabled=0) отключено по умолчанию, что позволяет предотвратить выпадение в PSOD для пользователей, у которых есть несколько сетевых карточек USB.

Этот релиз предназначен только для ESXi 7.0 Update 3, Update 3a и Update 3b:

ESXi703-VMKUSB-NIC-FLING-51233328-component-18902399.zip

Для использования драйверов в других версиях ESXi смотрите информацию о версиях на странице USB Network Native Driver for ESXi.


Таги: VMware, ESXi, Driver, Hardware, Network, USB, Labs, Update

Технологии защиты данных NVMe и NVMe-oF RAID теперь доступны в StarWind Backup Appliance


Многие из вас знают компанию StarWind Software, лидера в сфере поставки программных и программно-аппаратных решений для создания отказоустойчивых хранилищ. Помимо решений непосредственно для организации хранилищ, у компании есть и виртуальный модуль StarWind Backup Appliance, который предназначен для резервного копирования виртуальных машин на хранилищах StarWind. Это программно-аппаратный комплекс на базе оборудования NVMe, который позволяет избавиться от проблемы производительности хранилищ резервных копий и забыть о задаче планирования окна резервного копирования.

Модуль StarWind Backup Appliance поставляется в виде настроенного и готового к работе сервера резервного копирования, построенного на базе StarWind HyperConverged Appliance (HCA). Работа с продуктом происходит через удобный веб-интерфейс StraWind Web UI, есть также плагин StarWind для vCenter.

В апреле компания StarWind объявила, что StarWind Backup Appliance теперь включает в себя оборудование GRAID SupremeRAID - первую в мире карточку NVMe-oF RAID, которая обеспечивает высочайший уровень защиты данных в рамках технологии NVMe RAID на рынке.

Диски NVMe SSD постепенно становятся стандартом индустрии хранения данных, а решение для резервного копирования StarWind BA уже использует полностью только NVMe-хранилища. В этих системах была только одна проблема - с надежной реализацией RAID, и вот теперь она решена с помощью GRAID.

Традиционные RAID-контроллеры не были разработаны изначально для технологии NVMe, а программные RAID работают недостаточно эффективно, потребляя при этом большое число циклов CPU, что мешает рабочим нагрузкам сервера. Поэтому с теперь помощью карточек GRAID комплексы StarWind Backup Appliance обеспечат максимальную производительность и защиту данных на базе дисков NVMe SSD.

Вот так выглядят результаты тестов технологии GRAID по сравнению с текущими реализациями аппаратных RAID для NVMe:

Более подробно об этом нововведении можно узнать из пресс-релиза StarWind. Скачать пробную версию StarWind Backup Appliance можно по этой ссылке.


Таги: StarWind, Backup, Virtual Appliance, Hardware, NVMe, SSD, Storage, Performance

Новые материалы о Project Monterey


Компания VMware недавно выпустила пару интересных материалов о Project Monterey. Напомним, что продолжение развития технологии Project Pacific для контейнеров на базе виртуальной инфраструктуры, только с аппаратной точки зрения для инфраструктуры VMware Cloud Foundation (VCF).

Вендоры аппаратного обеспечения пытаются сделать высвобождение некоторых функций CPU, передав их соответствующим компонентам сервера (модуль vGPU, сетевая карта с поддержкой offload-функций и т.п.), максимально изолировав их в рамках необходимостей. Но вся эта новая аппаратная архитектура не будет хорошо работать без изменений в программной платформе.

Project Monterey - это и есть переработка архитектуры VCF таким образом, чтобы появилась родная интеграция новых аппаратных возможностей и программных компонентов. Например, новая аппаратная технология SmartNIC позволяет обеспечить высокую производительность, безопасность по модели zero-trust и простую эксплуатацию в среде VCF. За счет технологии SmartNIC инфраструктура VCF будет поддерживать операционные системы и приложения, исполняемые на "голом железе" (то есть без гипервизора).

Вот что нового в последнее время появилось о Project Monterey:

1. Документ от IDC - "Project Monterey: Evolving Infrastructure to Accelerate and Secure All Your Workloads"

2. Небольшая брошюра "Propelling the Hybrid Cloud into a New Era of Accelerated Infrastructure with VMware vSphere"

Напомним также несколько интересных материалов про Project Monterey с ресурсов VMware:

Ну и статьи на VM Guru, касающиеся Project Monterey:


Таги: VMware, Monterey, Hardware, Update, Network, CPU, NVIDIA

Вышла новая версия VMware ESXi Arm Edition 1.9


На сайте проекта Labs стала доступна новая версия гипервизора VMware под аппаратную архитектуру ARM - VMware ESXi Arm Edition 1.9. В будущем этот гипервизор найдет свое применение в таких платформах, как Project Monterey. О прошлой версии ESXi для ARM мы писали в декабре прошлого года.

  • Экспериментальная поддержка платформ Marvell Octeon TX2 CN92xx/CN93xx/CN95xx/CN96xx/CN98xx
  • Улучшенная поддержка оборудования PL011 UART
  • Поддержка VMM для ID_AA64ISAR2_EL, а также исправления ошибок для новых ядер Linux (>= 5.17-rc2)
  • Поддержка PCIe Enhanced Allocation
  • Улучшения логирования для шины PCIe
  • Улучшения в механизме виртуализации MSI
  • Исправления ошибок

Скачать VMware ESXi ARM Edition 1.9 можно по этой ссылке. Напомним, что апгрейд с прошлых версий этого гипервизора не поддерживается, каждую новую версию нужно устанавливать заново (но доступна опция "Preserve VMFS" для сохранения ВМ на томах).


Таги: VMware, ESXi, ARM, Hardware, Update, Labs

Программно-аппаратные комплексы StarWind Appliances - как они устроены?


Многим из вас знакома компания StarWind Software, выпускающая одни из лучших в отрасли продукты для организации отказоустройчивых хранилищ под платформы виртуализации. Компания производит как программные продукты (StarWind Virtual SAN для vSphere и Hyper-V), так и программно-аппаратные комплексы, представленные линейкой StarWind HyperConverged Appliance (HCA) и StarWind Storage Appliance. Сегодня мы поговорим именно о программно-аппаратных решениях StarWind Appliances...


Таги: StarWind, Virtual SAN, Appliance, HCA, Hardware

Вышла новая версия VMware Community Networking Driver for ESXi 1.2.7


На сайте проекта VMware Labs обновился продукт Community Networking Driver for ESXi до версии 1.2.7. Напомним, что этот пакет представляет собой комплект нативных драйверов под ESXi для сетевых адаптеров, подключаемых в разъем PCIe. О прошлой версии этих драйверов мы писали осенью прошлого года вот тут.

Давайте посмотрим, что нового появилось в версии 1.2.7 сетевых драйверов:

  • Поддержка устройств Intel I225 с любым идентификатором PHY ID
  • Поддержка новых устройств Intel I226-K (также для любых PHY ID)
  • Исправлен возможный дэдлок в изменяющемся MTU
  • Исправлено возможное зависание RX при операциях device layer ops
  • Исправлена возможная ошибка PHY reset failure

Драйверы работают для VMware ESXi 7.0 или более поздних версий, а список поддерживаемых устройств сейчас выглядит так:

Установка драйверов производится следующей командой (после этого нужно перезагрузить хост):

esxcli software vib install -d /path/to/the offline bundle zip

Скачать пакет драйверов VMware Community Networking Driver for ESXi 1.2.7 можно по этой ссылке.


Таги: VMware, Labs, Networking, Drivers, Hardware, Update, ESXi

Обновилась платформа ESXi Arm Edition до версии 1.8


Компания VMware на сайте проекта Labs сделала доступной новую версию платформы виртуализации ESXi ARM Edition 1.8. Напомним, что это специальная версия гипервизора VMware, предназначенная для процессоров ARM (на их базе построена, например, архитектура Raspberry Pi, а также многие IoT-устройства). Также этот гипервизор в будущем найдет свое применение в таких платформах, как Project Monterey. О прошлой версии ESXi для ARM мы писали вот тут.

Давайте посмотрим, что нового появилось в ESXi ARM Edition 1.8:

  • Исправление для ACPI, что позволяет поддерживать гостевые ОС OpenBSD.
  • Улучшенная обработка ITS device ID width в реализации без поддержки indirect table.
  • Улучшенная обработка VMkernel TLB (Translation Lookaside Buffer - он представляет собой кэш для MMU).
  • Улучшенная обработка механизма NUMA, особенно в части сообщений об ошибках.

Скачать VMware ESXi ARM Edition 1.8 можно по этой ссылке. Напомним, что апгрейд с прошлых версий этого гипервизора не поддерживается, каждую новую версию нужно устанавливать заново.


Таги: VMware, ESXi, ARM, Update, Hardware, Labs

Небольшая книга от VMware: Multi-Cloud Load Balancing for Dummies


VMware продолжает свою кампанию по раскрутке решения Avi Vantage Platform, которое было приобретено вместе с компанией Avi Networks пару лет назад. В хорошо оформленной мини-книге Multi-Cloud Load Balancing for Dummies на 48 страницах рассказывается о том, как с помощью Avi Vantage Platform можно осуществлять мультиоблачную балансировку на уровне приложений в гибридных средах.

Сейчас типичная инфраструктура крупных предприятий представляет собой комбинацию онпремизных и облачных сервисов, между которыми обеспечивается миграция виртуальных машин и приложений в контейнерах, построенных в концепции микросервисов:

Ранее для балансировки нагрузки использовались аппаратные модули, главным недостатком которых было отсутствие гибкости - их тяжело было обновлять и настраивать, и они просто не успевали реагировать на изменения инфраструктуры и технологий. Поэтому вендоры перешли на программные балансировщики. Но проблема в том, что они были построены на базе все той же старой архитектуры, где, помимо той же проблемы с гибкостью решений, была еще и проблема автоматизации операций, ведь основные решения для крупных датацентров эти фазы уже прошли:

Из книги вы узнаете вот о каких аспектах мультиоблачной балансировки приложений:

  • Консистентная доставка сервисов в мультиоблачной среде
  • Гибкое автомасштабирование сервисов по запросу
  • Автоматизация операций по доставке приложений
  • Мониторинг происходящего в реальном времени и сервисы аналитики
  • Возможность предоставить разработчикам функции самообслуживания
  • Упрощение управления инфраструктурой безопасности
  • Модернизация доставки микросервисных приложений

Скачать книгу Multi-Cloud Load Balancing for Dummies можно по этой ссылке.


Таги: VMware, Avi, Whitepaper, Cloud, Load Balancing, SaaS, Hardware

Обновился VMware ESXi ARM Edition до версии 1.7 - что нового?


Компания VMware на сайте проекта Labs сделала доступной новую версию платформы виртуализации ESXi ARM Edition 1.7. Напомним, что это специальная версия гипервизора VMware, предназначенная для процессоров ARM (на их базе построена, например, архитектура Raspberry Pi, а также многие IoT-устройства). Также этот гипервизор в будущем найдет свое применение в таких платформах, как Project Monterey. О прошлой версии ESXi для ARM мы писали вот тут.

Давайте посмотрим, что нового появилось в ESXi ARM Edition 1.7:

  • Экспериментальная поддержка платы Quartz64 от Pine64.
  • Поддержка драйвера VMware SVGA (теперь он совместим с платой Fusion on AS, где исправлены многие ошибки)
  • Монитор виртуальных машин, который поддерживает архитектуру NUMA, что улучшает производительность на двухсокетных машинах Ampere Altra.
  • Улучшенная совместимость для систем без IORT.
  • Исправлены проблемы с производительностью в гостевых ОС с новыми ядрами Linux, такими как Debian 10 и Photon 4.
  • Добавлено распознавание ядра Cortex-A55.
  • Улучшенная обработка TLBI в мониторе виртуальных машин и в VMkernel.
  • Улучшения обработки одновременных базовых операций в гипервизоре.

Скачать VMware ESXi ARM Edition 1.7 можно по этой ссылке.


Таги: VMware, ESXi, ARM, Update, Labs, Hardware

Большой анонс VMware о vRealize Operations и vRealize True Visibility


Компания VMware обещала большие новости о своем пакете решений vRealize True Visibility и вот недавно их объявила: теперь 19 менеджмент паков для вычислительных ресурсов и хранилищ доступны для всех пользователей продукта vRealize Operations. Также произошли некоторые изменения в самом пакете vRealize True Visibility Suite, а также были выпущены новые модули vRealize True Visibility Technology Modules, лицензируемые на базе метрик.

1. Management Packs для вычислительных ресурсов и хранилищ.

Теперь пользователи vRealize Operations получают доступ к 19 пакетам vRealize True Visibility Suite, которые позволяют получить доступ к глубоким метрикам, число которых превышает 1000.

Также пользователи получают новые детализированные дэшборды и статистики в реальном времени, которые помогают решать проблемы на всех уровнях оборудования.

Вот пример дэшборда, который отображает состояние дисковых массивов от разных вендоров в едином представлении Operations:

В данном случае удобно, что массивы представлены на одном экране с соответствующими Scoreboards, которые легко сравнивать между собой.

Все менеджмент паки vRealize True Visibility для Operations доступны по этой ссылке. А о том, как их устанавливать, вы можете узнать из большой серии обучающих видео, доступной на YouTube.

Вот ссылки на все менеджмент паки, которые вы можете использовать:

Compute Storage
Cisco UCS Cohesity
Dell EMC PowerEdge  Dell EMC Isilon
Dell EMC OpenManage Enterprise Dell EMC PowerMax & VMAX
HPE ProLiant Dell EMC VNX
HPE OneView Dell EMC XtremIO
Lenovo Compute Dell EMC Unity
  HPE 3PAR StoreServ
  HPE Nimble
  IBM SVC & Storwize
  NetApp E-Series
  NetApp FAS/AFF
  NetApp SolidFire
  Pure Storage FlashArray

Также на ресурсе VMware Code доступны примеры дэшбордов, которые можно использовать в своем производственном окружении.

2. Изменения в пакете vRealize True Visibility Suite.

Издания vRealize True Visibility Suite Advanced и Enterprise были немного переработаны, чтобы соответствовать ожиданиям пользователей. Теперь Management packs перемещены из категории "Connectors", а менеджмент пак ServiceNow перемещен в vRealize True Visibility Suite Advanced. Вот наглядное представление изменений:

Если у вас есть издание vRealize True Visibility Suite Advanced, то вы можете уже сейчас загрузить менеджмент паки с VMware Customer Connect. Также можно ознакомиться с документацией по этим продуктам.

3. Новые модули vRealize True Visibility Technology Modules

Для тех пользователей, которые хотят расширить возможности своей инфраструктуры мониторинга за счет модулей vRealize True Visibility Technology Modules, теперь есть возможности добавить их из разных категорий: Connectors, Network, Virtualization/Containers, Database и Applications. Каждый из модулей лицензируется на базе метрики, определенной для данной категории (по числу объектов, устройств, виртуальных машин и т.п.).

Вот так выглядит полная экосистема доступных модулей:

Скачать 60-дневную пробную версию vRealize True Visibility Suite можно по этой ссылке.


Таги: VMware, Operations, vRealize, TrueVisibility, Update, Cloud, Monitoring, Hardware

Анонсы VMworld 2021: VMware представила концепцию агрегации хранилищ Federated Storage Platform (FSP)


В начале осени, в рамках прошедшей конференции VMworld 2021 Online, компания VMware представила свое виденье развития концепции виртуализации и агрегации хранилищ корпоративных инфраструктур - Federated Storage Platform (FSP).

Проблема современного подхода к организации хранилищ состоит в том, что аппаратные комплексы в датацентре представлены разными моделями, производителями, а также поколениями в рамках одной продуктовой линейки. Ввиду этого администраторам приходится разрабатывать набор административных регламентов по обслуживанию жизненного цикла таких хранилищ - ввод в эксплуатацию, развертывание новых сервисов, обеспечение высокой доступности и план по изменению емкостей - вывод устаревших систем и расширение существующих емкостей. Ко всему этому добавляются Day-2 Operations и обеспечение безопасности хранения данных виртуальных и физических сред.

Как итог - корпоративная инфраструктура предприятия не может обеспечить те же преимущества, что и унифицированная облачная среда, которая избавляет администраторов от заботы об оборудовании и, в частности, хранилищах.

Проблему отчасти решает подход к организации гиперконвергентной инфраструктуры (Hyperconverged Infrastructure, HCI), например, концепция HCI Mesh. Но этого было недостаточно, и VMware запустила радикальную инициативу - Federated Storage Platform (FSP) - решение, которое приведет к унификации операций онпремизных и облачных сред в плане хранилищ за счет их виртуализации и агрегации.

С помощью VMware FSP можно будет управлять любым числом хранилищ разных вендоров, с которыми работает любое количество управляющих серверов vCenter:

Здесь будет 2 ключевых сущности:

  • Common volumes - это новый слой представления ресурсов хранения от гетерогенных кластеров vSAN, томов vSphere Virtual Volumes дисковых массивов, а также NFS-массивов. Все это будет объединено на уровне пулов.
  • Data center control plane - новый слой управления инфраструктурой хранения на базе эластичных пулов с возможностью полного доступа к имеющимся емкостям. Все это позволит видеть ресурсы хранения как в облаке, безотносительно имеющихся моделей массивов и топологий.

FSP будет полностью интегрирован в уже имеющимся механизмом политик хранения SPBM (vSphere Storage Policy Based Management), предоставляя гибкие пулы хранения для уровня приложений на базе их потребностей. Платформа VMware vSphere будет выступать как один из потребителей ресурсов в рамках этой концепции.

Для обеспечения различных уровней сервиса будут работать расширенные политики FSP, такие как квоты на емкости и ограничения по производительности, чтобы обеспечить ярусность хранения и работы с данными.

В рамках FSP процесс добавления или списания хранилищ будет бесшовным, то есть не вовлекать физическую коммутацию, которая будет выводиться за рамки процесса управления единым пулом хранилищ. Например, FSP может автоматически обнаружить новое уже подключенное хранилище, после чего добавить его в общий federated пул и начать балансировку нагрузок посредством VMware vSphere Storage vMotion.

Сейчас администраторам приходится вручную выполнять операции SVMotion для ввода новых хранилищ в эксплуатацию и их вывода, а FSP будет делать все это автоматически в "lazy"-режиме, чтобы обеспечивать уровень производительности виртуальной среды.

FSP будет интегрирована с драйвером vSphere CSI в Kubernetes, а также технологией CNS (Cloud Native Storage). Разработчики смогут потреблять дисковые емкости в рамках классов через FSP, а администраторы получать полную видимость использования таких хранилищ на уровне всего датацентра.

Сейчас решения VMware vSphere with VMware Tanzu и TKG-S VMware Tanzu Kubernetes Grid могут развертывать рабочие нагрузки в рамках пространств имен кластера, а FSP даст возможность развернуть приложения на любом хранилище в любом кластере на базе любых доступных политик.

Сейчас с помощью x-vMotion виртуальную машину можно перемещать между кластерами и разными инфраструктурами vSphere. FSP расширит эти возможности, позволяя виртуальным машинам и контейнеризованным приложениям свободно "путешествовать" между кластерами, инфраструктурами и пространствами хранения - при этом под полным контролем управляющего слоя.

Получить больше информации об инициативе можно из записи этой ссессии с прошедшего VMworld 2021 Online: VMware’s vision for storage and data in a multi-cloud world.


Таги: VMware, Storage, Hardware, Cloud, HCI, vSphere, vCenter, FSP

Обновились Community NVMe Driver for ESXi и USB Network Native Driver for ESXi


Недавно мы писали об обновлении на сайте проекта VMware Labs пакета Community Networking Driver for ESXi до версии 1.2.2, который представляет собой комплект нативных драйверов под ESXi для сетевых адаптеров, подключаемых в разъем PCIe. На днях на сайте Labs вышли обновления еще двух пакетов драйверов.

1. NVMe Driver for ESXi версии 1.2

Это набор драйверов для ESXi, которые позволяют поддерживать различные хранилища на базе технологии NVMe. Надо понимать, что community-драйверы не входят в официальный список поддержки VMware HCL, поэтому использовать их можно только в тестовых средах. О прошлой версии мы писали вот тут, а в новой версии нововведение только одно - поддержка ESXi 7.0 и более новых версий гипервизора для устройств Apple NVMe (это Apple 2018 Intel Mac Mini 8.1 или Apple 2019 Intel Mac Pro 7.1).

Скачать пакет драйверов Community NVMe Driver for ESXi 1.2 можно по этой ссылке.

2. USB Network Native Driver for ESXi версии 1.9

Это нативный USB-драйвер для ESXi, который необходим для сетевых адаптеров серверов, подключаемых через USB-порт. Такой адаптер, например, можно использовать, когда вам нужно подключить дополнительные Ethernet-порты к серверу, а у него больше не осталось свободных PCI/PCIe-слотов. О прошлой версии этих драйверов мы писали вот тут.

В версии пакета драйверов 1.9 появились следующие нововведения:

  • Добавлена поддержка ESXi 7.0 Update 3
  • Добавлена поддержка VID: 0x0b05/PID: 0x1976 и VID: 0x1A56/PID: 0x3100 (VID=VendorID, PID = ProductID)
  • Исправлена проблема с функциями управления питанием для xHCI
  • По умолчанию функция USB bus scanning отключается (настройка usbBusFullScanOnBootEnabled=0), чтобы не вызывать розовый экран смерти (PSOD) для пользователей, которые используют несколько карточек USB NIC.

Таблица поддерживаемых устройств теперь выглядит так:

Скачать USB Network Native Driver for ESXi версии 1.9 можно по этой ссылке (не забудьте корректно указать вашу версию ESXi при загрузке).


Таги: VMware, Labs, USB, Driver, NVMe, ESXi, Update, Hardware

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Enterprise Offtopic Broadcom VMachines Veeam Microsoft Cloud StarWind NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V VCF Operations Certification Memory Kubernetes NVMe AI vSAN VMConAWS vDefend VCDX Explore Tanzu Workstation Private AI Update Russian Ports HCX Live Recovery CloudHealth NSX Labs Backup Chargeback Aria VCP Intel Community Ransomware Stretched Network VMUG VCPP Data Protection ONE V2V DSM DPU Omnissa EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS VEBA App Volumes Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey RDMA vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Availability Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V Capacity KB VirtualCenter NFS ThinPrint VCAP Upgrade Orchestrator ML Director SIOC Troubleshooting Bugs ESA Android Python Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Работа с дисками виртуальных машин VMware.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2026, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge